
Gemma 2B en Kubernetes con Ollama: Configuración Local de IA
Guía para correr Gemma 2B local offline con k3d y Ollama, usando PVC para persistencia, despliegue reproducible en Kubernetes y resolución de errores.
Guía para correr Gemma 2B local offline con k3d y Ollama, usando PVC para persistencia, despliegue reproducible en Kubernetes y resolución de errores.
Ejecuta LLMs localmente con Docker Model Runner: descarga Qwen 3, expón APIs REST y conecta .NET con Semantic Kernel para prototipar sin nube.